OpenAI wirft DeepSeek die unerlaubte Nutzung seiner Modelle vor

KI-czar Bijele kuće, David Sacks, spominje mogućnost krađe intelektualnog vlasništva.

30. 01. 2025. 02:30
Eulerpool News 30. sij 2025. 02:30

OpenAI je pronašao dokaze da je kineski AI start-up DeepSeek neovlašteno koristio modele američke tvrtke za treniranje vlastitog open-source AI-ja. Optužbe dodatno potiču raspravu o zaštiti intelektualnog vlasništva u AI sektoru.

Prema OpenAI postoje znakovi za takozvanu „destilaciju“, metodu kojom programeri optimiziraju učinkovitost manjih modela putem izlaza većih, moćnijih modela. To omogućuje usporedive rezultate uz znatno niže troškove. Korištenje takvih tehnika bez dopuštenja moglo bi prekršiti uvjete korištenja OpenAI, koji zabranjuju korištenje „izlaza za razvoj konkurentskih modela“. Detalje o dokazima tvrtka nije htjela otkriti.

David Sacks, koji je zadužen za politiku umjetne inteligencije i kriptovaluta pod predsjednikom SAD-a Donaldom Trumpom, komentirao je u utorak optužbe na Fox News: „Postoji tehnika pod nazivom destilacija […], gdje model uči od drugog modela i izvlači znanje roditeljskog modela. Postoje značajni dokazi da je DeepSeek upravo to učinio s modelima OpenAI-ja.“ Međutim, Sacks nije pružio konkretne dokaze za svoju tvrdnju.

DeepSeek dosad nije odgovorio na optužbe. Tvrtka je nedavno privukla pažnju objavom svog R1 modela. Ovaj je model pokazao impresivne kognitivne sposobnosti i postigao usporedive rezultate s vodećim američkim modelima – unatoč znatno manjim financijskim i tehničkim resursima. DeepSeek tvrdi da je svoj V3 model trenirao s samo 2.048 Nvidia H800 grafičkih kartica i budžetom od 5,6 milijuna američkih dolara – djelić troškova koje OpenAI i Google troše na slične modele.

Stručnjaci iz industrije smatraju da je uobičajeno da se kineski kao i američki start-upovi usmjeravaju prema rezultatima vodećih AI modela. Prema Ritwiku Gupti, istraživaču AI-a na Sveučilištu Kalifornije u Berkeleyju, "uobičajena je praksa da start-upovi i akademski instituti koriste rezultate već obučenih velikih jezičnih modela (LLM-ova) kako bi poboljšali vlastite modele". To može značajno smanjiti troškovno intenzivan proces fino podešavanja od strane ljudi ("usklađivanje povratnih informacija od ljudi").

Doch genau hier liegt für Marktführer wie OpenAI ein zentrales Problem: Während sie Millionen in die Optimierung ihrer Modelle investieren, können kleinere Akteure durch Distillation-Techniken und geschicktes Chip-Management ihre Modelle günstiger trainieren – und so aufholen. OpenAI betonte in einer Stellungnahme, dass es laufend Gegenmaßnahmen ergreife, um sein geistiges Eigentum zu schützen, und eng mit der US-Regierung zusammenarbeite, um fortschrittliche Modelle vor unautorisierter Nutzung zu bewahren.

Ironično, OpenAI se trenutno suočava sa sličnim optužbama. Nekoliko novinskih izdavača, uključujući New York Times, kao i poznati autori, optužuju tvrtku da je koristila njihov sadržaj bez dopuštenja za treniranje AI modela. U tijeku su tužbe u kojima tužitelji tvrde da je OpenAI koristio modele za profitiranje od tekstova zaštićenih autorskim pravima bez da su obeštetili autore.

Učini najbolje investicije svog života

Od 2 eura osigurajте

Novosti